Erkunden Sie WebXR Markerless Tracking. Dieser Deep-Dive behandelt umgebungsbasierte Positionierung, SLAM, Ebenenerkennung und das Erstellen immersiver AR-Erlebnisse.
Die Realität entfesseln: Ein Entwicklerleitfaden für WebXR Markerless Tracking
Jahrelang war das Versprechen der Augmented Reality an ein physisches Symbol gebunden. Um ein 3D-Modell eines neuen Autos zu sehen, musste man zuerst einen QR-Code drucken. Um einen Charakter aus einer Müslischachtel zum Leben zu erwecken, brauchte man die Schachtel selbst. Dies war die Ära der markerbasierten AR – eine clevere und grundlegende Technologie, die jedoch mit eingebauten Einschränkungen einherging. Sie erforderte ein spezifisches, bekanntes visuelles Ziel und beschränkte die Magie der AR auf einen kleinen, vordefinierten Raum. Heute wurde dieses Paradigma durch eine weitaus leistungsfähigere und intuitivere Technologie durchbrochen: Markerless Tracking.
Markerless Tracking, insbesondere umgebungsbasierte Positionserfassung, ist die treibende Kraft hinter moderner, überzeugender Augmented Reality. Es befreit digitale Inhalte von gedruckten Quadraten und ermöglicht es ihnen, unsere Welt mit beispielloser Freiheit zu bewohnen. Es ist die Technologie, mit der Sie ein virtuelles Sofa in Ihr reales Wohnzimmer stellen, einem digitalen Führer durch einen belebten Flughafen folgen oder eine fantastische Kreatur über einen offenen Park laufen sehen können. In Kombination mit der beispiellosen Zugänglichkeit des Internets über die WebXR Device API entsteht eine potente Formel für die Bereitstellung immersiver Erlebnisse für ein globales Publikum, sofort und ohne die Reibungsverluste von App-Store-Downloads.
Dieser umfassende Leitfaden richtet sich an Entwickler, Produktmanager und Technologiebegeisterte, die die Mechanik, Fähigkeiten und praktischen Anwendungen der umgebungsbasierten Verfolgung in WebXR verstehen möchten. Wir werden die Kerntechnologien dekonstruieren, Schlüsselfunktionen untersuchen, die Entwicklungslandschaft überblicken und einen Blick auf die Zukunft eines räumlich bewussten Webs werfen.
Was ist umgebungsbasierte Positionserfassung?
Im Kern ist die umgebungsbasierte Positionserfassung die Fähigkeit eines Geräts – typischerweise ein Smartphone oder ein spezielles AR-Headset –, seine eigene Position und Ausrichtung innerhalb eines physischen Raums in Echtzeit zu verstehen, wobei es nur seine eigenen Sensoren verwendet. Es beantwortet kontinuierlich zwei grundlegende Fragen: "Wo bin ich?" und "In welche Richtung schaue ich?" Das Besondere daran ist, wie es dies ohne vorherige Kenntnis der Umgebung oder die Notwendigkeit spezieller Marker erreicht.
Dieser Prozess stützt sich auf einen ausgefeilten Zweig der Computer Vision und der Sensordatenanalyse. Das Gerät erstellt effektiv eine temporäre, dynamische Karte seiner Umgebung und verfolgt dann seine Bewegung innerhalb dieser Karte. Dies ist weit entfernt von der einfachen Verwendung von GPS, das für AR im Raummaßstab zu ungenau ist, oder von markerbasierter AR, die zu restriktiv ist.
Die Magie hinter den Kulissen: Kerntechnologien
Die unglaubliche Leistung der Weltverfolgung wird hauptsächlich durch einen Prozess namens SLAM (Simultaneous Localization and Mapping) erreicht, der durch Daten von anderen Onboard-Sensoren erweitert wird.
SLAM: Die Augen der AR
SLAM ist das algorithmische Herzstück des Markerless Tracking. Es ist ein Rechenproblem, bei dem ein Gerät eine Karte einer unbekannten Umgebung erstellen und gleichzeitig seine eigene Position innerhalb dieser Karte verfolgen muss. Es ist ein zyklischer Prozess:
- Kartierung: Die Kamera des Geräts erfasst Videobilder der Welt. Der Algorithmus analysiert diese Bilder, um eindeutige, stabile Interessenpunkte zu identifizieren, die als "Feature Points" bezeichnet werden. Dies können die Ecke eines Tisches, die deutliche Textur auf einem Teppich oder die Kante eines Bilderrahmens sein. Eine Sammlung dieser Punkte bildet eine spärliche 3D-Karte der Umgebung, die oft als "Punktwolke" bezeichnet wird.
- Lokalisierung: Während sich das Gerät bewegt, verfolgt der Algorithmus, wie sich diese Feature Points in der Ansicht der Kamera verschieben. Durch die Berechnung dieses optischen Flusses von Frame zu Frame kann er die Bewegung des Geräts genau ableiten – egal, ob es sich vorwärts, seitwärts oder gedreht hat. Es lokalisiert sich relativ zu der Karte, die es gerade erstellt hat.
- Simultane Schleife: Der Schlüssel ist, dass beide Prozesse gleichzeitig und kontinuierlich ablaufen. Während das Gerät mehr vom Raum erkundet, fügt es seiner Karte neue Feature Points hinzu, wodurch die Karte robuster wird. Eine robustere Karte ermöglicht wiederum eine genauere und stabilere Lokalisierung. Diese ständige Verfeinerung sorgt dafür, dass sich die Verfolgung solide anfühlt.
Sensorfusion: Der unsichtbare Stabilisator
Während die Kamera und SLAM den visuellen Anker zur Welt liefern, haben sie Einschränkungen. Kameras erfassen Bilder mit einer relativ niedrigen Frequenz (z. B. 30-60 Mal pro Sekunde) und können bei schlechten Lichtverhältnissen oder bei schnellen Bewegungen (Bewegungsunschärfe) Probleme haben. Hier kommt die Inertial Measurement Unit (IMU) ins Spiel.
Die IMU ist ein Chip, der einen Beschleunigungsmesser und ein Gyroskop enthält. Sie misst Beschleunigung und Drehgeschwindigkeit mit einer sehr hohen Frequenz (Hunderte oder Tausende Male pro Sekunde). Diese Daten liefern einen konstanten Informationsstrom über die Bewegung des Geräts. IMUs neigen jedoch zum "Drift" – kleine Fehler, die sich im Laufe der Zeit ansammeln und dazu führen, dass die berechnete Position ungenau wird.
Sensorfusion ist der Prozess der intelligenten Kombination der hochfrequenten, aber driftenden IMU-Daten mit den niederfrequenten, aber visuell fundierten Kamera-/SLAM-Daten. Die IMU füllt die Lücken zwischen den Kamerabildern für eine reibungslose Bewegung, während die SLAM-Daten den Drift der IMU periodisch korrigieren und sie wieder in der realen Welt verankern. Diese leistungsstarke Kombination ermöglicht die stabile, latenzarme Verfolgung, die für ein glaubwürdiges AR-Erlebnis erforderlich ist.
Hauptfunktionen von Markerless WebXR
Die zugrunde liegenden Technologien von SLAM und Sensorfusion erschließen eine Reihe leistungsstarker Funktionen, die Entwickler über die WebXR API und ihre unterstützenden Frameworks nutzen können. Dies sind die Bausteine moderner AR-Interaktionen.
1. Sechs Freiheitsgrade (6DoF) Tracking
Dies ist wohl der bedeutendste Sprung gegenüber älteren Technologien. 6DoF-Tracking ermöglicht es Benutzern, sich physisch innerhalb eines Raums zu bewegen und diese Bewegung in der digitalen Szene widerzuspiegeln. Es umfasst:
- 3DoF (Rotationstracking): Dies verfolgt die Ausrichtung. Sie können von einem festen Punkt aus nach oben, unten und rundherum schauen. Dies ist in 360-Grad-Video-Viewern üblich. Die drei Grade sind Neigung (Nicken), Gieren (Schütteln des Kopfes 'Nein') und Rollen (Neigen des Kopfes zur Seite).
- +3DoF (Positionstracking): Dies ist die Ergänzung, die echte AR ermöglicht. Es verfolgt die Translation durch den Raum. Sie können vorwärts/rückwärts gehen, sich links/rechts bewegen und sich ducken/aufstehen.
Mit 6DoF können Benutzer um ein virtuelles Auto herumlaufen, um es aus allen Winkeln zu betrachten, sich einer virtuellen Skulptur nähern, um ihre Details zu sehen, oder einem Projektil in einem AR-Spiel physisch ausweichen. Es verwandelt den Benutzer von einem passiven Beobachter in einen aktiven Teilnehmer innerhalb der gemischten Realität.
2. Ebenenerkennung (horizontal und vertikal)
Damit sich virtuelle Objekte in unserer Welt zugehörig fühlen, müssen sie ihre Oberflächen respektieren. Ebenenerkennung ist die Funktion, die es dem System ermöglicht, flache Oberflächen in der Umgebung zu identifizieren. WebXR APIs können in der Regel Folgendes erkennen:
- Horizontale Ebenen: Böden, Tische, Arbeitsplatten und andere flache, ebene Oberflächen. Dies ist wichtig, um Objekte zu platzieren, die auf dem Boden liegen sollten, wie Möbel, Charaktere oder Portale.
- Vertikale Ebenen: Wände, Türen, Fenster und Schränke. Dies ermöglicht Erlebnisse wie das Aufhängen eines virtuellen Gemäldes, das Anbringen eines digitalen Fernsehers oder das Durchbrechen eines Charakters durch eine reale Wand.
Aus internationaler E-Commerce-Perspektive ist dies ein Wendepunkt. Ein Einzelhändler in Indien kann Benutzer visualisieren lassen, wie ein neuer Teppich auf ihrem Boden aussieht, während eine Kunstgalerie in Frankreich eine WebAR-Vorschau eines Gemäldes an der Wand eines Sammlers anbieten kann. Es bietet Kontext und Nutzen, der Kaufentscheidungen vorantreibt.
3. Hit-Testing und Anker
Sobald das System die Geometrie der Welt verstanden hat, benötigen wir eine Möglichkeit, mit ihr zu interagieren. Hier kommen Hit-Testing und Anker ins Spiel.
- Hit-Testing: Dies ist der Mechanismus, um zu bestimmen, wohin ein Benutzer in der 3D-Welt zeigt oder tippt. Eine gängige Implementierung wirft einen unsichtbaren Strahl von der Mitte des Bildschirms (oder vom Finger des Benutzers auf dem Bildschirm) in die Szene. Wenn dieser Strahl eine erkannte Ebene oder einen Feature Point schneidet, gibt das System die 3D-Koordinaten dieses Schnittpunkts zurück. Dies ist die grundlegende Aktion zum Platzieren eines Objekts: Der Benutzer tippt auf den Bildschirm, ein Hit-Test wird durchgeführt und das Objekt wird an der Position des Ergebnisses platziert.
- Anker: Ein Anker ist ein spezifischer Punkt und eine Ausrichtung in der realen Welt, die das System aktiv verfolgt. Wenn Sie ein virtuelles Objekt mit einem Hit-Test platzieren, erstellen Sie implizit einen Anker dafür. Die Hauptaufgabe des SLAM-Systems besteht darin, sicherzustellen, dass dieser Anker – und damit Ihr virtuelles Objekt – fest an seiner realen Position bleibt. Selbst wenn Sie weggehen und zurückkommen, stellt das Verständnis des Systems für die Weltkarte sicher, dass sich das Objekt immer noch genau dort befindet, wo Sie es verlassen haben. Anker bieten das entscheidende Element der Persistenz und Stabilität.
4. Lichtschätzung
Ein subtiles, aber äußerst wichtiges Merkmal für den Realismus ist die Lichtschätzung. Das System kann den Kamera-Feed analysieren, um die Umgebungslichtverhältnisse der Benutzerumgebung abzuschätzen. Dies kann Folgendes umfassen:
- Intensität: Wie hell oder dunkel ist der Raum?
- Farbtemperatur: Ist das Licht warm (wie von einer GlĂĽhbirne) oder kĂĽhl (wie von einem bedeckten Himmel)?
- Richtwirkung (in fortschrittlichen Systemen): Das System kann sogar die Richtung der primären Lichtquelle schätzen, wodurch das Werfen realistischer Schatten ermöglicht wird.
Diese Informationen ermöglichen es einer 3D-Rendering-Engine, virtuelle Objekte so zu beleuchten, dass sie mit der realen Welt übereinstimmen. Eine virtuelle Metallkugel reflektiert die Helligkeit und Farbe des Raums, und ihr Schatten ist weich oder hart, abhängig von der geschätzten Lichtquelle. Dieses einfache Feature trägt mehr dazu bei, virtuelle und reale Welten zu verschmelzen, als fast jedes andere, und verhindert den üblichen "Aufkleber-Effekt", bei dem digitale Objekte flach und fehl am Platz aussehen.
Erstellen von Markerless WebXR-Erlebnissen: Ein praktischer Ăśberblick
Die Theorie zu verstehen ist eine Sache; sie zu implementieren ist eine andere. GlĂĽcklicherweise ist das Entwickler-Ă–kosystem fĂĽr WebXR ausgereift und robust und bietet Tools fĂĽr jedes Kompetenzniveau.
Die WebXR Device API: Das Fundament
Dies ist die Low-Level-JavaScript-API, die in modernen Webbrowsern (wie Chrome auf Android und Safari auf iOS) implementiert ist und die grundlegenden Hooks für die AR-Funktionen der zugrunde liegenden Gerätehardware und des Betriebssystems (ARCore auf Android, ARKit auf iOS) bereitstellt. Sie verwaltet Sitzungen, Eingaben und stellt Funktionen wie Ebenenerkennung und Anker für den Entwickler bereit. Während Sie direkt gegen diese API schreiben können, entscheiden sich die meisten Entwickler für Frameworks höherer Ebene, die die komplexe 3D-Mathematik und die Rendering-Schleife vereinfachen.
Beliebte Frameworks und Bibliotheken
Diese Tools abstrahieren den Boilerplate-Code der WebXR Device API und bieten leistungsstarke Rendering-Engines und Komponentenmodelle.
- three.js: Die beliebteste 3D-Grafikbibliothek für das Web. Es ist kein AR-Framework per se, aber sein `WebXRManager` bietet hervorragenden, direkten Zugriff auf WebXR-Funktionen. Es bietet immense Leistung und Flexibilität und ist damit die Wahl für Entwickler, die eine feinkörnige Kontrolle über ihre Rendering-Pipeline und Interaktionen benötigen. Viele andere Frameworks basieren darauf.
- A-Frame: A-Frame basiert auf three.js und ist ein deklaratives Entity-Component-System (ECS)-Framework, das die Erstellung von 3D- und VR/AR-Szenen unglaublich zugänglich macht. Sie können eine komplexe Szene mit einfachen HTML-ähnlichen Tags definieren. Es ist eine ausgezeichnete Wahl für schnelles Prototyping, Bildungszwecke und für Entwickler, die aus einem traditionellen Web-Hintergrund kommen.
- Babylon.js: Eine leistungsstarke und vollständige 3D-Spiel- und Rendering-Engine für das Web. Es verfügt über einen umfangreichen Funktionsumfang, eine starke globale Community und eine fantastische WebXR-Unterstützung. Es ist bekannt für seine hervorragende Leistung und seine entwicklerfreundlichen Tools, was es zu einer beliebten Wahl für komplexe kommerzielle und Unternehmensanwendungen macht.
Kommerzielle Plattformen fĂĽr plattformĂĽbergreifende Reichweite
Eine der größten Herausforderungen bei der WebXR-Entwicklung ist die Fragmentierung der Browserunterstützung und der Gerätefunktionen weltweit. Was auf einem High-End-iPhone in Nordamerika funktioniert, funktioniert möglicherweise nicht auf einem Mittelklasse-Android-Gerät in Südostasien. Kommerzielle Plattformen lösen dies, indem sie ihre eigene proprietäre, browserbasierte SLAM-Engine bereitstellen, die auf einer viel größeren Anzahl von Geräten funktioniert – selbst solchen ohne native ARCore- oder ARKit-Unterstützung.
- 8th Wall (jetzt Niantic): Der unangefochtene Marktführer in diesem Bereich. Die SLAM-Engine von 8th Wall ist bekannt für ihre Qualität und, was am wichtigsten ist, ihre massive Geräteabdeckung. Indem sie ihre Computer Vision im Browser über WebAssembly ausführen, bieten sie ein konsistentes, hochwertiges Tracking-Erlebnis auf Milliarden von Smartphones. Dies ist entscheidend für globale Marken, die es sich nicht leisten können, einen großen Teil ihres potenziellen Publikums auszuschließen.
- Zappar: Zappar ist ein langjähriger Akteur im AR-Bereich und bietet eine leistungsstarke und vielseitige Plattform mit eigener robuster Tracking-Technologie. Die ZapWorks-Toolsuite bietet eine umfassende kreative und Publishing-Lösung für Entwickler und Designer, die auf eine breite Palette von Geräten und Anwendungsfällen abzielt.
Globale Anwendungsfälle: Markerless Tracking in Aktion
Die Anwendungen von umgebungsbasiertem WebAR sind so vielfältig wie das globale Publikum, das es erreichen kann.
E-Commerce und Einzelhandel
Dies ist der ausgereifteste Anwendungsfall. Von einem Möbelhändler in Brasilien, der es Kunden ermöglicht, einen neuen Sessel in ihrer Wohnung zu sehen, bis hin zu einer Sneaker-Marke in Südkorea, die Hypebeasts die neuesten Drops auf ihren Füßen in der Vorschau anzeigen lässt, wird die Funktionalität "In Ihrem Zimmer anzeigen" zu einer Standarderwartung. Sie reduziert die Unsicherheit, erhöht die Konversionsraten und senkt die Retouren.
Bildung und Ausbildung
Markerless AR ist ein revolutionäres Werkzeug für die Visualisierung. Ein Universitätsstudent in Ägypten kann einen virtuellen Frosch auf seinem Schreibtisch sezieren, ohne einem Tier zu schaden. Ein Kfz-Techniker in Deutschland kann AR-geführten Anweisungen folgen, die direkt auf einen realen Automotor gelegt werden, wodurch die Genauigkeit verbessert und die Ausbildungszeit verkürzt wird. Die Inhalte sind nicht an ein bestimmtes Klassenzimmer oder Labor gebunden; sie können überall abgerufen werden.
Marketing und Markenbindung
Marken nutzen WebAR für immersives Storytelling. Ein globales Getränkeunternehmen kann ein Portal im Wohnzimmer eines Benutzers erstellen, das zu einer skurrilen Markenwelt führt. Ein internationales Filmstudio kann Fans ein Foto mit einem lebensgroßen, animierten Charakter aus ihrem neuesten Blockbuster machen lassen, der durch das Scannen eines QR-Codes auf einem Poster initiiert wird, aber markerlos in ihrer Umgebung verfolgt wird.
Navigation und Wegfindung
Große, komplexe Veranstaltungsorte wie internationale Flughäfen, Museen oder Messen sind perfekte Kandidaten für die AR-Wegfindung. Anstatt auf eine 2D-Karte auf ihrem Telefon zu schauen, könnte ein Reisender im Dubai International Airport sein Telefon hochhalten und einen virtuellen Pfad auf dem Boden sehen, der ihn direkt zu seinem Gate führt, mit Echtzeitübersetzungen für Schilder und Sehenswürdigkeiten.
Herausforderungen und zukĂĽnftige Richtungen
Obwohl unglaublich leistungsstark, ist markerless WebXR nicht ohne Herausforderungen. Die Technologie entwickelt sich ständig weiter, um diese Hürden zu überwinden.
Aktuelle Einschränkungen
- Leistung und Batterieverbrauch: Das gleichzeitige AusfĂĽhren eines Kamera-Feeds und eines komplexen SLAM-Algorithmus ist rechenintensiv und verbraucht erheblich Akkuleistung, was eine wichtige Ăśberlegung fĂĽr mobile Erlebnisse ist.
- Tracking-Robustheit: Das Tracking kann unter bestimmten Bedingungen fehlschlagen oder instabil werden. Schlechte Lichtverhältnisse, schnelle, ruckartige Bewegungen und Umgebungen mit wenigen visuellen Merkmalen (wie eine schlichte weiße Wand oder ein stark reflektierender Boden) können dazu führen, dass das System seinen Platz verliert.
- Das 'Drift'-Problem: Über große Entfernungen oder lange Zeiträume können sich kleine Ungenauigkeiten beim Tracking ansammeln, was dazu führt, dass virtuelle Objekte langsam von ihren ursprünglich verankerten Positionen 'abdriften'.
- Browser- und Gerätefragmentierung: Während kommerzielle Plattformen dies mildern, bedeutet die Abhängigkeit von der nativen Browserunterstützung, dass eine komplexe Matrix von Funktionen navigiert werden muss, die auf welcher Betriebssystemversion und welchem Hardwaremodell unterstützt werden.
Der Weg nach vorn: Was kommt als Nächstes?
Die Zukunft des Umgebungstrackings konzentriert sich auf die Schaffung eines tieferen, persistenteren und semantischeren Verständnisses der Welt.
- Meshing und Okklusion: Der nächste Schritt über die Ebenenerkennung hinaus ist das vollständige 3D-Meshing. Systeme erstellen in Echtzeit ein vollständiges geometrisches Mesh der gesamten Umgebung. Dies ermöglicht Okklusion – die Fähigkeit für ein virtuelles Objekt, korrekt von einem realen Objekt verdeckt zu werden. Stellen Sie sich einen virtuellen Charakter vor, der realistisch hinter Ihrem tatsächlichen Sofa hergeht. Dies ist ein entscheidender Schritt zur nahtlosen Integration.
- Persistente Anker und die AR-Cloud: Die Fähigkeit, einen kartierten Raum und seine Anker zu speichern, später neu zu laden und mit anderen Benutzern zu teilen. Dies ist das Konzept der "AR-Cloud". Sie könnten eine virtuelle Notiz für ein Familienmitglied an Ihrem realen Kühlschrank hinterlassen, und es könnte sie später mit seinem eigenen Gerät sehen. Dies ermöglicht persistente AR-Erlebnisse für mehrere Benutzer.
- Semantisches Verständnis: KI und maschinelles Lernen ermöglichen es Systemen, nicht nur eine flache Oberfläche zu sehen, sondern zu verstehen, was sie ist. Das Gerät weiß "das ist ein Tisch", "das ist ein Stuhl", "das ist ein Fenster". Dies erschließt kontextbezogene AR, bei der eine virtuelle Katze weiß, dass sie auf einen realen Stuhl springen soll, oder ein AR-Assistent virtuelle Bedienelemente neben einem realen Fernseher platzieren kann.
Erste Schritte: Ihre ersten Schritte in Markerless WebXR
Sind Sie bereit, mit dem Bauen zu beginnen? So machen Sie Ihre ersten Schritte:
- Erkunden Sie die Demos: Der beste Weg, die Technologie zu verstehen, ist, sie zu erleben. Sehen Sie sich die offiziellen WebXR Device API-Beispiele, die A-Frame-Dokumentationsbeispiele und die Showcase-Projekte auf Websites wie 8th Wall an. Verwenden Sie Ihr eigenes Smartphone, um zu sehen, was funktioniert und wie es sich anfĂĽhlt.
- Wählen Sie Ihr Tool: Für Anfänger ist A-Frame aufgrund seiner sanften Lernkurve ein fantastischer Ausgangspunkt. Wenn Sie mit JavaScript- und 3D-Konzepten vertraut sind, bietet Ihnen das Eintauchen in three.js oder Babylon.js mehr Leistung. Wenn Ihr Hauptziel die maximale Reichweite für ein kommerzielles Projekt ist, ist die Erkundung einer Plattform wie 8th Wall oder Zappar ein Muss.
- Konzentrieren Sie sich auf die User Experience (UX): Gute AR ist mehr als nur Technologie. Denken Sie über die Reise des Benutzers nach. Sie müssen sie einarbeiten: Weisen Sie sie an, ihr Telefon auf den Boden zu richten und es zu bewegen, um den Bereich zu scannen. Geben Sie ein klares visuelles Feedback, wenn eine Oberfläche erkannt wurde und zur Interaktion bereit ist. Halten Sie die Interaktionen einfach und intuitiv.
- Treten Sie der globalen Community bei: Sie sind nicht allein. Es gibt lebendige, internationale Communities von WebXR-Entwicklern. Der WebXR Discord-Server, die offiziellen Foren für three.js und Babylon.js sowie unzählige Tutorials und Open-Source-Projekte auf GitHub sind unschätzbare Ressourcen zum Lernen und zur Fehlerbehebung.
Fazit: Aufbau des räumlich bewussten Webs
Umgebungsbasiertes Markerless Tracking hat Augmented Reality grundlegend von einer Nischenneuheit in eine leistungsstarke, skalierbare Plattform für Kommunikation, Handel und Unterhaltung verwandelt. Es verlagert die Berechnung vom Abstrakten ins Physische und ermöglicht es, digitale Informationen in der Welt, die wir bewohnen, zu verankern.
Durch die Nutzung von WebXR können wir diese räumlich bewussten Erlebnisse mit einer einzigen URL an eine globale Benutzerbasis liefern und die Barrieren von App-Stores und Installationen beseitigen. Die Reise ist noch lange nicht zu Ende. Da das Tracking robuster, persistenter und semantisch bewusster wird, werden wir über das einfache Platzieren von Objekten in einem Raum hinausgehen und ein echtes, interaktives und räumlich bewusstes Web schaffen – ein Web, das unsere Realität sieht, versteht und sich nahtlos in sie integriert.